Zum Inhalt überspringen
Zum Inhalt überspringen

Kommentare

  1. [...] Wikipedia bequellen: nur mit Leistungsschutzgeld © [...]

  2. [...] Twitter weiterhin möglich ist, auch mit einem kurzen Teaser versehen – und selbstverständlich auch in Wikipedia und bei den kommerziellen Weiterverwertern. Die Online-Nutzung von „Inhalten“ einschließlich Pressetexten hat eine so große Bedeutung [...]

  3. [...] dieser Irrsinn bedeutet, haben andere schon ausführlich aufgeschrieben. Die spannende Frage: was passiert [...]

  4. Aschmidt
    16. Juni 2012 um 18:39 Uhr

    Die Auslistung und das Operieren mit robots.txt nehmen in der letzten Zeit zu. Ich finde für die Artikelarbeit immer weniger über Google News. Zeitungsarchive sind auch oft nur noch auf der jeweiligen Website durchsuchbar, Artikel werden dann nur noch gegen Bezahlung angeboten. Wir könnten dagegen vorgehen, indem wir Links zu kommerziellen Anbietern schrittweise aus Wikipedia löschen und nur noch nicht-kommerzielle Plattformen einschließlich der Blogs verlinken. Ich könnte mir überhaupt vorstellen, daß die Zivilgesellschaft sich ihre eigenen Informationskanäle schaffen wird und die Verlage dadurch am Ende ganz außen vor bleiben. Ihre Lobbyisten haben dann dafür gesorgt, daß sie sich selbst vom gesellschaftlichen Diskurs und von der politischen Meinungsbildung ausschließen.

  5. Michael
    16. Juni 2012 um 18:14 Uhr

    Es wäre für die Verlage auch technisch kein Problem Deeplinks zu verhindern. Oder sich ganz aus Suchmaschinen auslisten zu lassen. Im Zweifelsfall ließe es sich auch verhindern, dass Artikel über Facebook geshart werden können. Richtig bitter wird es, wenn man etwa Facebook-Likebuttons auf der eigenen Seite einbindet. Beim Klick auf den Button bindet Facebook dann automatisch den Artikel mit einem kleinen Teaser auf der eigenen Wall ein - und damit ist der Nutzer dann abmahngefährdet.

  6. Jan Engelmann
    16. Juni 2012 um 17:56 Uhr

    @Christian Hartmann - Natürlich könnten sich die Verlage bei GoogleNews einfach auslisten lassen, indem sie eine Datei mit dem Namen robots.txt auf dem Werbserver hinterlegen und folgenden Inhalt hineinschreiben: User-agent: * Disallow: / Siehe dazu auch: http://support.google.com/webmasters/bin/answer.py?hl=de&answer=156449 Insofern ist das Argument, man wolle mit einer gesetzlichen Regelung endlich faire Ausgangsbedingungen zwischen Verlagsindustrie und Internetwirtschaft schaffen, tatsächlich fadenscheinig. Es geht schlicht um einen Revenue Share, für den der Staat von Springer zu Hilfe gerufen wurde. Vor allem BDI und Bitkom haben auf diese versteckte Subvention wiederholt kritisch hingewiesen.

  7. Christian Hartmann
    16. Juni 2012 um 14:29 Uhr

    Ein verstehe ich nicht: Warum stelle Verlage dann ihre Artikel für alle allgemein verfügbar ins Netz, wollen dann Geld für den Abruf haben und etablieren selbst keine geeigneten Massnahmen, sondern nutzen das Gesetz als Inkassoinstitut.

  8. Jan Engelmann
    15. Juni 2012 um 15:13 Uhr

    @Michael Good Point, aber: Die haftungsrechtliche Konstellation verkompliziert m.E. das Problem eher, als es zu dessen Lösung beitragen würde. Wir werden uns bemühen, auch diesen Aspekt in einer erweiterten öffentlichen Stellungnahme aufzunehmen.

  9. Michael
    15. Juni 2012 um 15:09 Uhr

    Ein sehr guter Beitrag, der die Probleme des LSR aufzeigt. Ich habe nur eine Frage: Die Wikipedia ist ja in der sehr komfortablen Situation, dass sie eben von einem US-Verein in den USA gehostet wird und sich eigentlich um solche beknackten deutschen Gesetze keine Sorgen machen müsste, oder?

    1. Pavel Richter
      15. Juni 2012 um 20:27 Uhr

      Hinzu kommt noch, dass ja nicht die Wikipedia als Ganzes Anspruchsgegnerin eines Leistungsschutzrechts wäre, sondern die individuelle Autorin. Und diese kann ja sehr wohl hier in Deutschland sitzen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert